moralitas penggunaan ai oleh polisi
risiko profil kriminal berdasarkan statistik masa lalu
Ingat Tom Cruise di film Minority Report? Polisi bisa menangkap orang sebelum kejahatannya benar-benar terjadi. Dulu, kita mungkin menontonnya sambil makan popcorn dan berpikir itu sekadar fiksi ilmiah yang seru. Tapi hari ini, kita sudah berdiri tepat di ambang pintu dunia tersebut. Kepolisian di berbagai negara—dan sangat mungkin segera tiba di lingkungan kita—mulai menggunakan kecerdasan buatan atau Artificial Intelligence (AI) untuk memprediksi kejahatan. Pertanyaannya, apakah kita benar-benar siap menyerahkan nasib manusia dan keadilan pada deretan kode komputer? Mari kita bedah fenomena ini pelan-pelan.
Secara konsep, ide ini terdengar brilian dan sangat efisien. Dalam kacamata sains, AI yang digunakan kepolisian beroperasi lewat sistem yang disebut predictive policing. Mesin ini menelan jutaan data statistik masa lalu: jam berapa pencurian sering terjadi, di jalan mana kejahatan berpusat, dan siapa saja yang biasanya terlibat. Sejarah mencatat, kepolisian sejak abad ke-19 di kota-kota besar dunia memang sudah menempelkan pin merah di peta kota untuk melacak pola kriminal. Otak manusia secara psikologis sangat mencintai pola, karena mengenali pola memberi kita ilusi kendali atas kekacauan dunia. Bedanya, sekarang tugas menempel pin itu diserahkan pada algoritma raksasa yang bisa memproses data dalam hitungan milidetik. Kita mungkin berpikir, hebat sekali, bukan? Tinggal suruh mesin menganalisis, kirim polisi ke area rawan, dan kota jadi aman. Namun, tepat di sinilah bom waktunya mulai berdetak.
Dalam ilmu komputer, ada satu hukum besi yang tak bisa dibantah: garbage in, garbage out. Sampah yang masuk, sampah pula yang keluar. Masalah terbesar dari sistem AI bukanlah kecerdasannya, melainkan guru yang mengajarinya. Dan tebak siapa gurunya? Ya, catatan statistik masa lalu kita sendiri. Secara historis, penegakan hukum di banyak peradaban sering kali diwarnai oleh bias kelas sosial, ketimpangan ekonomi, hingga prasangka terhadap kelompok minoritas. Jika selama puluhan tahun polisi lebih sering berpatroli dan menindak warga di kawasan miskin pinggiran kota, maka statistik akan mencatat daerah tersebut sebagai titik merah "sarang penjahat". Algoritma AI tidak mengerti konteks sosial dan sejarah. Ia tidak punya empati. Ia hanya melihat angka buta. Lalu, muncul sebuah teka-teki psikologis yang menggelitik kita: bagaimana jika mesin yang kita rancang untuk bersikap seobjektif mungkin, justru berubah menjadi cermin hitam yang memantulkan dosa-dosa masa lalu kita?
Inilah kenyataan berbasis sains yang sering luput dari perhatian kita. Berbagai studi kriminologi dan ilmu data modern menemukan sebuah fakta mengejutkan: AI polisi sebenarnya tidak memprediksi kejahatan, ia memprediksi perilaku kepolisian itu sendiri. Mari kita bayangkan siklusnya. AI melihat data masa lalu yang bias dan menyuruh polisi berpatroli ketat di Kampung A. Karena ada banyak polisi di sana, otomatis mereka akan menemukan lebih banyak pelanggaran, sekecil apa pun itu. Penangkapan terjadi. Data penangkapan ini masuk kembali ke sistem AI sebagai "data baru". Mesin lalu menyimpulkan, "Tuh kan, prediksi saya benar, Kampung A memang berbahaya!" Ini adalah fenomena psikologis confirmation bias (bias konfirmasi) yang diotomatisasi oleh teknologi. Sementara itu, kejahatan kerah putih di kawasan elite yang jarang tersentuh patroli jalanan, tak akan pernah masuk dalam radar AI. Tanpa sadar, kita tidak sedang menciptakan alat pencegah kejahatan. Kita justru menciptakan mesin waktu yang mengunci kelompok marginal dalam stigma kriminal yang tak berkesudahan.
Pada akhirnya, teman-teman, menyadari hal ini bukan berarti kita harus anti-sains atau membuang semua komputer dari kantor polisi. AI adalah alat yang luar biasa luar biasa kuat jika digunakan untuk hal yang tepat, seperti melacak aliran dana gelap atau membongkar jaringan perdagangan manusia. Namun, ketika menyangkut profil moral dan nasib seorang manusia di jalanan, kita harus berani menarik garis batas. Keadilan sejati tidak pernah bisa dihitung hanya lewat probabilitas matematika atau dosa-dosa statistik di masa lalu. Keadilan selalu membutuhkan empati, pemahaman akan keputusasaan sosial, dan kebijaksanaan—hal-hal irasional yang justru membuat kita utuh sebagai manusia. Jika kita menyerahkan moralitas sepenuhnya pada mesin, kita bukan sedang menekan angka kejahatan. Kita sedang mengkhianati kemanusiaan itu sendiri. Mari kita pastikan, masa depan kita tidak ditulis oleh algoritma yang buta akan nilai-nilai keadilan.